ChatGPT jak człowiek. Zauważono u niego... dysonans poznawczy

29 maja 2025, 10:30

Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.



Zostań Patronem

Od 2006 roku popularyzujemy naukę. Chcemy się rozwijać i dostarczać naszym Czytelnikom jeszcze więcej atrakcyjnych treści wysokiej jakości. Dlatego postanowiliśmy poprosić o wsparcie. Zostań naszym Patronem i pomóż nam rozwijać KopalnięWiedzy.

Patronite

Patroni KopalniWiedzy